Telegram Group Search
مدل جدید Xiaomi برای vision متأسفانه این مدل توی بنچمارک‌های منتشر شده با pixtral مقایسه نشده

چیزی که بنظرم مهمترین گزینه هست؛ شرکت mistral واقعاً توی تسک‌های vision رغیب نداره درحال حاضر.
Media is too big
VIEW IN TELEGRAM
اگر خواستید LLM رو لوکال روی گوشی داشته باشید :

Github Doc

الان باید به این فقط tool اضافه کرد؛ موسیقی هم داشت اجرا می‌شد.
دستاوردهای یادگیری عمیق(InTec)
نظر شخصی من راجب الگوریتم Forward-Forward البته با دید بیزینس و کاری (نه آکادمیک) در ریپلای به پیامی توی گروه گفتم شاید بد نباشه شما هم بخونید. ---------------------------------------- این الگوریتم فعلاً فقط و فقط می‌تونه نظر آکادمی رو جلب کنه و فعلا دقیقاً…
اینو دیدم؛ یاد صحبتم توی هکاتون شریف با یکی از منتورها به اسم آرش افتادم (آرش جان سلام 😂)

بحثی داشتیم راجب Diffusion model ها برای دیتاهای متنی و فرار از Transformer ها؛ خداروشکر شرکت کننده‌ها باهوش بودند ما فرصت کردیم knowledge share داشته باشیم.

شخصاً همون ابتدا، نظرم این بود که بیزینس سراغ این موضوع نخواهد رفت درحال حاضر و اگر هم بخواد تغییری ایجاد بشه احتمالاً اول توسعه SDK برای تبدیل مدل‌های ترین شده روی Nvidia به سخت‌افزار‌های تخصصی مثل Groq خواهد بود.
آرش عزیز هم؛ با بنده هم نظر بود و البته ایشون بسیاری از مقالات این حوزه رو به خوبی خونده بود و آشنا بود.

یک تایم خیلی خیلی مفید و دوستانه‌ای رو کنار ایشون و چندتا دیگه از منتورها داشتیم و بحث جذابی که چرا راهکارهای ارائه شده یا قابل پیاده‌سازی نیست یا اینکه مسئله رو سخت‌تر می‌کنه.

خلاصه که؛ منم ترند‌ها رو دنبال می‌کنم اما تمرکزم باید روی بیزینس باشه، هرچند ترجیح میدم جلسات هفتگی و ماهانه برای این موضوعات داشته باشم.
اوضاع مدل‌های local اینطوری هست.
Gemma3, Qwen3
برای همه تسک‌ها استفاده می‌شه.

روی Qwen3 نتایج خوبی برای RAG میگیرم؛ روی Gemma3 برای Tool خیلی نتابج خوبی دارم.

سراغ devstral برای بررسی کد یا ساخت کدهای اولیه میرم (بخصوص اینکه روی ابزارهای مربوط به تسک‌های برنامه‌نویسی خروجی خوبی داره)

deepseek-r1 

نسخه جدید هست و روی سیستم شرکت نداشتم برای همین روی سیستم شخصی دانلود کردم تا ببینم نتایج چطوری هست.

نکته مهم شخصا بعضی وقتا ۲ مدل رو همزمان بالا میارم
docker ollama

هرکدوم روی یک GPU و از مدل ساده‌تر میخوام سریع کد اولیه رو بزنه و مدل پیچیده‌تر اون رو بررسی کنه و رفع اشکال انجام بده؛ یا استراکچر و استایل پروژه رو رعایت کنه.

ولی خلاصه وضعیت لوکال این هست؛ چون سوال شده بود.
دستاوردهای یادگیری عمیق(InTec)
اوضاع مدل‌های local اینطوری هست. Gemma3, Qwen3 برای همه تسک‌ها استفاده می‌شه. روی Qwen3 نتایج خوبی برای RAG میگیرم؛ روی Gemma3 برای Tool خیلی نتابج خوبی دارم. سراغ devstral برای بررسی کد یا ساخت کدهای اولیه میرم (بخصوص اینکه روی ابزارهای مربوط به تسک‌های…
Qwen3

خیلی نرم و ریز مدل embedding خودش رو هم منتشر کرد

HuggingFace

نتایج جالبی هم روی بنچمارک‌ها گرفته و پیشرفت‌های خوبی رو نشون داده.


پ.ن: توی لیدربورد multi lingual رتبه اول هست (البته مدل 8b)
قراره کلی آموزش و خبر بشنویم ازش
Please open Telegram to view this post
VIEW IN TELEGRAM
Gemini 2.5 Pro

بازهم قویتر از قبل روی مباحث مربوط به code نویسی.

با اعلام دیپ‌مایند، مدل Gemini2.5 Pro آپدیت جدیدی رو دریافت کرده که یکی از ویژگی‌های مهم اون بهبود عملکردش روی تسک‌های مربوط به کد نویسی هست.
Deepseek R1

هم توی یک آپدیت خفن و دوس داشتنی؛ حالا برای کدهای بیشتری علاوه‌بر ارائه کد، دیاگرام و جریان اتفاقات رو رسم می‌کنه.

این هفته به مراتب عجیب و غریب هست.
(تصویر مربوط به یک پروژه Django هست ولی قبل از این روی Rust هم تست کردم و دقیق بود)
آپدیت جدید
Gemini2.5 Pro

این ابزار رو برای من غیر قابل استفاده کرده؛ فقط کافیه کمی تاریخچه چت بزرگ بشه (نه اینکه به محدودیت برسه؛ شاید نهایتاً به ۱۶ هزار توکن برسه)

اتفاقی که میوفته اینه که؛ چت‌های آخر رو بطور کامل فراموش می‌کنه و چت‌های قدیمی رو نگه می‌داره (یکی یادش رفته ایندکس منفی بذاره؟)

با چندتا از دوستان هم چک کردم برای اونها هم همین بود (تسک موردنظر برنامه‌نویسی هست.)

یکی لطفاً کامیت‌های آخر رو revert کنه!!!!


فعلاً:
بهترین راهکار اینه که یک سیستم پرامپت آماده کنید؛ و بعد هربار که تغییرات لازم داشتید یک چت جدید ایجاد کنید.
یا اینکه برید روی ابزارهای دیگه.
دستاوردهای یادگیری عمیق(InTec)
آپدیت جدید Gemini2.5 Pro این ابزار رو برای من غیر قابل استفاده کرده؛ فقط کافیه کمی تاریخچه چت بزرگ بشه (نه اینکه به محدودیت برسه؛ شاید نهایتاً به ۱۶ هزار توکن برسه) اتفاقی که میوفته اینه که؛ چت‌های آخر رو بطور کامل فراموش می‌کنه و چت‌های قدیمی رو نگه…
دقیقاً همین چندروز قبل؛ صحبتی داشتیم با چندتا از بچه‌های سنیور.

بحث AI جدی شد؛ به این نتیجه رسیدیم چندتا نیروی هندی بگیریم (مثل کارهای آمازون، تسلا و ...) بگیم هوش مصنوعی کد هست بدون خطا.


اتفاقاً یک تلاش کوچکی هم روی ساخت ویدئو کردیم؛ ولی تسک زیاد بود و veo3 پولی خلاصه بیخیال شدیم.

اما حالا از صبح خبر builderai رو دارم می‌بینم فقط و میزان سرمایه‌گذاری و درآمدش.


بازم می‌گم؛ AI فقط جایگزین coder‌ها می‌شه و باعث تغییر تعریف نیروی Junior خواهد شد (جونیور مدل فعلی حذف می‌شه)
برای دووم آوردن فقط کافیه :
Software Engineer
بشید؛ همین و بس.

How to survive the rise of AI
by Me
Meta, Deepmind, Cornel, Nvidia

توی یک همکاری؛ جواب این سوال رو دادند که:

How much do LLM memorize

تو مسیر داشتم نگاهی می‌نداختم، ولی باید دقیق بخونم. ولی 3.6bit خیلی خوب نیست
این مدل رو هم داشته باشید به منظور راحتی در طراحی سایت و ساخت کامپوننت‌های React خیلی برای ساخت کل پروژه روش حساب نکنید (برای حالت react میگم)
ولی کامپوننت‌های خوبی میسازه

UIGEN-T3
حتماً این کتاب رو بخونید؛ من Draft اولیه این کتاب از یکی از دوستان بهم رسید (خیلی وقت قبل)

وقتی خوندم همون چندتا فصل اول، لذت بردم واقعاً و شدیداً منتظرش بودم.

حالا که اومده سرفصل‌های کاملش رو دیدم و بنظرم خیلی بهتر از چیزی هست که فکر می‌کردم (البته امیدوارم همش به خوبی draft نوشته شده باشه)

شخصاً توی اولین فرصت خوندن کاملش رو شروع می‌کنم (الان روی ۳ تا کتاب دیگه هستم) و اگر یادم نره بعد از خوندنش نظر دقیق رو روی نسخه منتشر شده خواهم گفت.

Packt Pub LLM Design patterns
تست‌های مختلف روی o3-pro برای تسک‌های برنامه نویسی زمانی ببیشتر از 15 دقیقه برای thinking رو نشون میده؛ نتایج خوب هست ولی واقعا انقدر صبر کردن مناسب هست ؟

ترجیح میدم فکر کردن وظیفه من باشه و تابپ کردن وظیفه LLM یا نهایتا پیشنهاد دادن ولی زیر ۱ دقیقه جواب بگیرم.
قراره به یک دیوار بخوریم ؟ یا اینکه تکنیک‌های دیگه مشکل سرعت رو حل خواهند کرد؟

راستی groq هم Qwen3-32B رو اضافه کرده و سرعت فوق‌العاده‌ای داره
کانفیگ لوکال بنده :

services:
ollama:
volumes:
- ~/.ollama:/root/.ollama
container_name: ollama
pull_policy: always
tty: true
ports:
- 11434:11434
restart: unless-stopped
image: ollama/ollama:${OLLAMA_DOCKER_TAG-latest}
deploy:
resources:
reservations:
devices:
- driver: ${OLLAMA_GPU_DRIVER-nvidia}
count: ${OLLAMA_GPU_COUNT-2}
capabilities:
- gpu

open-webui:
build:
context: .
args:
OLLAMA_BASE_URL: "/ollama"
dockerfile: Dockerfile
image: ghcr.io/open-webui/open-webui:${WEBUI_DOCKER_TAG-main}
container_name: open-webui
volumes:
- open-webui:/app/backend/data
depends_on:
- ollama
ports:
- ${OPEN_WEBUI_PORT-3000}:8080
environment:
- "OLLAMA_BASE_URL=http://ollama:11434"
- "WEBUI_SECRET_KEY="
extra_hosts:
- host.docker.internal:host-gateway
restart: unless-stopped

qdrant:
volumes:
- qdrant_db:/qdrant/storage:z
image: qdrant/qdrant
container_name: qdrant
ports:
- 6333:6333
- 6334:6334

volumes:
open-webui: {}
qdrant_db: {}


فقط این دیفالت رو از ۲ به تعداد کارت گرافیک تغییر بدید :
${OLLAMA_GPU_COUNT-2}

و از داکیومنت ollama موارد لازم برای راه‌اندازی docker-nvidia رو نصب کنید.

بعد از این مرحله مدل‌های مورد نظرتون رو دانلود کنید:
for model in devstral gemma3:27b deepseek-r1:32b qwen3:32b nomic-embed-text; do                                                                                              
docker exec -it ollama ollama pull "$model"
done


وقتی این موارد تموم شد roocode رو روی vscode نصب کنید (پیشنهاد می‌کنم از بخش تنظیمات experimental قابلیت codebase indexing رو فعال کنید)

embedding provider: Ollama
Model: nomic-embed-text
ollama url: http://localhost:11434
Qdrant url: http://localhost:6333


علاوه بر این از طریق http://localhost:3000 می‌تونید openweb-ui رو هم داشته باشید.
Please open Telegram to view this post
VIEW IN TELEGRAM
2025/06/14 00:37:12
Back to Top
HTML Embed Code: